接近分布检测(OODD)的目的是在不需要分类所需的监督的情况下区分语义上相似的数据点。本文提出了一个用于雷达目标的OODD用例,可扩展到其他类型的传感器和检测方案。我们强调了OODD及其对检测多模式,多样化目标类别的特定监督要求的相关性,以及其他类似的雷达目标和现实生活中关键系统中的混乱。我们提出了对模拟的低分辨率脉冲雷达微型多普勒特征的深层和非深色OODD方法的比较,考虑了光谱和协方差矩阵输入表示。协方差表示旨在估算专用的二阶处理是否适合区分签名。讨论了标记为训练,自我监督学习,对比学习见解和创新培训损失的潜在贡献,并研究了训练集污染的影响。
translated by 谷歌翻译
为了减轻模型中不希望的偏差的影响,几种方法建议预先处理输入数据集,以通过防止敏感属性的推断来减少歧视风险。不幸的是,这些预处理方法中的大多数导致一代新分布与原始分布有很大不同,因此通常导致不切实际的数据。作为副作用,这种新的数据分布意味着需要重新训练现有模型才能做出准确的预测。为了解决这个问题,我们提出了一种新颖的预处理方法,我们将根据保护组的分布转换为所选目标一个,并具有附加的隐私约束,其目的是防止敏感敏感的推断属性。更确切地说,我们利用Wasserstein Gan和Attgan框架的最新作品来实现数据点的最佳运输以及强制保护属性推断的歧视器。我们提出的方法可以保留数据的可解释性,并且可以在不定义敏感组的情况下使用。此外,我们的方法可以专门建模现有的最新方法,从而提出对这些方法的统一观点。最后,关于真实和合成数据集的一些实验表明,我们的方法能够隐藏敏感属性,同时限制数据的变形并改善了后续数据分析任务的公平性。
translated by 谷歌翻译
数据增强是自然语言处理(NLP)模型的鲁棒性评估的重要组成部分,以及增强他们培训的数据的多样性。在本文中,我们呈现NL-Cogmenter,这是一种新的参与式Python的自然语言增强框架,它支持创建两个转换(对数据的修改)和过滤器(根据特定功能的数据拆分)。我们描述了框架和初始的117个变换和23个过滤器,用于各种自然语言任务。我们通过使用其几个转换来分析流行自然语言模型的鲁棒性来证明NL-Upmenter的功效。基础架构,Datacards和稳健性分析结果在NL-Augmenter存储库上公开可用(\ url {https://github.com/gem-benchmark/nl-augmenter})。
translated by 谷歌翻译
近年来,语义分割引起了大量的关注。在机器人中,分割可用于识别感兴趣的区域,或者\ emph {target区域}。例如,在Robocup标准平台联赛(SPL)中,分割将足球场与背景上的玩家分开。对于卫星或车辆应用,通常需要找到某些地区,例如道路,水体或地形。在本文中,我们提出了一种基于新设计的空间时间网络的实时目标区域分割的新方法。该方法在由机器人的硬件和其操作环境中定义的域约束下运行。所提出的网络能够实时运行,在有限运行时间和计算能力的约束内工作。将此工作与在由展示ROBOCUP SPL竞争产生的NAO V6人形机器人生成的数据集上的其他实时分割方法进行比较。在这种情况下,目标区域被定义为人造草地。该方法还在由移动容器收集的海上数据集上进行测试,其中目的是将海洋区域与图像的其余部分分开。此数据集展示了所提出的模型可以推广到各种视觉问题。
translated by 谷歌翻译
The recent progress of CNN has dramatically improved face alignment performance. However, few works have paid attention to the error-bias with respect to error distribution of facial landmarks. In this paper, we investigate the error-bias issue in face alignment, where the distributions of landmark errors tend to spread along the tangent line to landmark curves. This error-bias is not trivial since it is closely connected to the ambiguous landmark labeling task. Inspired by this observation, we seek a way to leverage the error-bias property for better convergence of CNN model. To this end, we propose anisotropic direction loss (ADL) and anisotropic attention module (AAM) for coordinate and heatmap regression, respectively. ADL imposes strong binding force in normal direction for each landmark point on facial boundaries. On the other hand, AAM is an attention module which can get anisotropic attention mask focusing on the region of point and its local edge connected by adjacent points, it has a stronger response in tangent than in normal, which means relaxed constraints in the tangent. These two methods work in a complementary manner to learn both facial structures and texture details. Finally, we integrate them into an optimized end-to-end training pipeline named ADNet. Our ADNet achieves state-of-the-art results on 300W, WFLW and COFW datasets, which demonstrates the effectiveness and robustness.
translated by 谷歌翻译